绑架性自然语言推断(\ alpha {} nli)的任务是确定哪种假设是一组观察的可能性更可能的解释,是NLI的特别困难类型。与其仅仅确定因果关系,还需要常识,还需要评估解释的合理性。所有最新的竞争系统都以情境化表示为基础,并利用变压器体系结构来学习NLI模型。当某人面对特定的NLI任务时,他们需要选择可用的最佳模型。这是一项耗时且资源浓厚的努力。为了解决这个实用问题,我们提出了一种简单的方法来预测性能,而无需实际调整模型。我们通过测试预先训练的模型在\ alpha {} NLI任务上的性能如何,仅将具有余弦相似性的句子嵌入到训练这些嵌入式的分类器时所达到的性能。我们表明,余弦相似方法的准确性与Pearson相关系数为0.65的分类方法的准确性密切相关。由于相似性计算是在给定数据集上计算的数量级(少于一分钟与小时),因此我们的方法可以在模型选择过程中节省大量时间。
translated by 谷歌翻译
越来越多的机器学习方法用于解决旅行推销员问题。但是,这些方法通常需要解决训练或使用需要大量调整的复杂强化学习方法的实例。为了避免这些问题,我们引入了一种新颖的无监督学习方法。我们使用针对TSP的整数线性程序的放松来构建不需要正确实例标签的损耗函数。随着离散化的可变,其最小值与最佳或近乎最佳的解决方案一致。此外,此损耗函数是可区分的,因此可以直接用于训练神经网络。我们将损失函数与图形神经网络和欧几里得和非对称TSP的设计受控实验一起使用。我们的方法优于监督学习不需要大型标记数据集的优势。此外,我们的方法的性能超过了不对称TSP的强化学习,并且与欧几里得实例的强化学习相当。与增强学习相比,我们的方法也更稳定,更容易训练。
translated by 谷歌翻译